Obiettivi di Apprendimento
- Confronta Architetture: Distinguere tra RNN, LSTM e l'architettura Transformer.
- Meccanismo dell'Attenzione Self-Attention: Spiegare il paper 'Attention Is All You Need' e i meccanismi di attenzione self-attention.
- Encoders e Decoders: Comprendere il ruolo di encoder e decoder nei modelli come BERT e GPT.